กฎหมาย AI ฉบับใหม่ของแคลิฟอร์เนียคุ้มครองผู้แจ้งเบาะแสอย่างไร

Governor Newsom partners with world's leading tech companies to prepare Californians for AI future

(SeaPRwire) –   ซีอีโอของบริษัทต่างๆ ที่แข่งขันกันเพื่อสร้าง AI ที่ฉลาดขึ้น—Google DeepMind, OpenAI, xAI, และ Anthropic—ได้กล่าวไว้อย่างชัดเจนถึงความเสี่ยง แต่ละบริษัทเคยเตือนว่า AI ที่ทรงพลังอาจนำมาซึ่งหายนะต่อมนุษยชาติ อย่างไรก็ตาม ในอุตสาหกรรมที่ปกคลุมด้วยความลับทางการค้าและข้อตกลงการไม่เปิดเผยข้อมูล ผู้ที่ต้องการเป็นผู้เปิดโปงความผิด (whistleblower) ต้องเผชิญกับทางเลือกที่ยากลำบาก: อยู่เงียบๆ หรือเปิดเผยข้อมูลและเผชิญผลกระทบทางกฎหมายที่อาจตามมา

กฎหมายที่สำคัญของแคลิฟอร์เนียมีเป้าหมายที่จะทำให้ทางเลือกนั้นง่ายขึ้น กฎหมายว่าด้วยความโปร่งใสในปัญญาประดิษฐ์แนวหน้า (The Transparency in Frontier Artificial Intelligence Act – SB 53) ซึ่งลงนามโดยผู้ว่าการ Gavin Newsom เมื่อวันที่ 29 กันยายน เสนอการคุ้มครองทางกฎหมายที่คนวงในเรียกร้องมานาน โดยปกป้องผู้ที่เปิดเผยข้อมูลความผิดจากการกระทำที่เป็นการแก้แค้นจากนายจ้างของตน

กฎหมายนี้ใช้กับบริษัทใดก็ตามที่ดำเนินงานในแคลิฟอร์เนียซึ่งใช้พลังประมวลผลจำนวนมากสำหรับการฝึกโมเดล ซึ่งเป็นเกณฑ์ที่ออกแบบมาเพื่อควบคุมเฉพาะนักพัฒนาที่ล้ำสมัยในขณะที่ยกเว้นบริษัทขนาดเล็ก กฎหมายนี้ได้รวมเอาการคุ้มครองผู้เปิดเผยข้อมูลความผิดแบบใหม่เข้ากับข้อกำหนดด้านความโปร่งใส โดยกำหนดให้นักพัฒนาต้องเผยแพร่แผนการลดความเสี่ยงและแบ่งปันผลการทดสอบความปลอดภัย ซึ่งเป็นการทำให้คำมั่นสัญญาที่นักวิจารณ์กล่าวไว้เป็นลายลักษณ์อักษร บริษัทต่างๆ จะต้องรายงาน “เหตุการณ์ด้านความปลอดภัยที่สำคัญ” ต่อสำนักงานบริการฉุกเฉินแห่งแคลิฟอร์เนีย (OES) ด้วย

เหตุใดผู้เปิดเผยข้อมูลความผิดจึงเรียกร้องการคุ้มครอง

แม้ว่า Geoffrey Hinton “เจ้าพ่อแห่ง AI” จะลาออกจาก Google ในปี 2023 เพื่อ [ส่วนที่ขาดหายไปในต้นฉบับ] เกี่ยวกับความเสี่ยงเชิงการดำรงอยู่ของเทคโนโลยี แต่การเรียกร้องให้มีการคุ้มครองผู้เปิดเผยข้อมูลความผิดไม่ได้เกิดขึ้นจนกระทั่งเดือนพฤษภาคม 2024 เมื่อ Vox [ส่วนที่ขาดหายไปในต้นฉบับ] การใช้ “ข้อตกลงการออกจากงานที่จำกัดอย่างมาก” ของ OpenAI เพื่อยับยั้งการวิพากษ์วิจารณ์ พนักงานของ OpenAI ได้รับค่าตอบแทนส่วนใหญ่ในรูปแบบของหุ้น ซึ่งเป็นเรื่องปกติใน Silicon Valley แต่เมื่อออกจากบริษัท เพื่อรักษาสิทธิในหุ้นของตน พวกเขาถูกบังคับให้ลงนามในข้อตกลงที่มีข้อกำหนดห้ามมิให้วิพากษ์วิจารณ์อดีตนายจ้างตลอดไป และห้ามมิให้กล่าวถึงการมีอยู่ของข้อตกลงนี้ เรื่องนี้ถูกเปิดเผยหลังจากอดีตพนักงานคนหนึ่งชื่อ Daniel Kokotajlo โพสต์ในฟอรัมออนไลน์เกี่ยวกับการปฏิเสธที่จะลงนาม โดยเชื่อว่าเขาสละสิทธิ์ในหุ้นมูลค่าหลายล้านดอลลาร์

ในวันถัดมา Sam Altman ซีอีโอของ OpenAI [ส่วนที่ขาดหายไปในต้นฉบับ] เพื่อปฏิเสธความรู้ใดๆ เกี่ยวกับข้อกำหนดเหล่านี้ โดยระบุว่า “นี่เป็นความรับผิดชอบของผม และเป็นหนึ่งในไม่กี่ครั้งที่ผมรู้สึกอับอายอย่างแท้จริงในการบริหาร OpenAI; ผมไม่รู้ว่าสิ่งนี้เกิดขึ้นและผมควรจะรู้” OpenAI ได้ยืนยันในภายหลัง ผ่านข้อความที่ส่งถึงพนักงานปัจจุบันและอดีตพนักงาน ว่าข้อกำหนดเหล่านี้จะไม่มีผลบังคับใช้อีกต่อไป และจะลบภาษาที่เป็นปัญหาออกจากเอกสารการลาออกทั้งหมดตั้งแต่นี้ไป แต่ความน่าเชื่อถือของการปฏิเสธของ Altman ถูกตั้งคำถามเมื่อวันที่ 22 พฤษภาคม [ส่วนที่ขาดหายไปในต้นฉบับ] ปรากฏว่าแสดงลายเซ็นของเขา—รวมถึงลายเซ็นของผู้บริหารระดับสูงคนอื่นๆ—บนเอกสารที่อนุญาตข้อกำหนดเหล่านั้นอย่างชัดเจน ในเดือนมิถุนายน 2024 หลังจากการโต้เถียงเรื่องข้อตกลงการออกจากงานที่ OpenAI ยกเลิกในขณะนั้น Kokotajlo และพนักงานปัจจุบันและอดีตของ OpenAI และ Google DeepMind อีก 13 คน [ส่วนที่ขาดหายไปในต้นฉบับ] เพื่อเรียกร้องการคุ้มครองผู้เปิดเผยข้อมูลความผิดที่แข็งแกร่งขึ้นในจดหมายเปิดผนึก

กฎหมายใหม่คุ้มครองอะไรบ้าง

เพื่อตอบสนองข้อเสนอแนะหลักของจดหมายเปิดผนึก กฎหมายใหม่ของแคลิฟอร์เนียก้าวข้ามการคุ้มครองผู้เปิดเผยข้อมูลความผิดทั่วไปที่ครอบคลุมเฉพาะกิจกรรมที่ผิดกฎหมายเท่านั้น กฎหมายนี้ห้ามนักพัฒนา AI กำหนดกฎที่หยุดยั้งพนักงานที่มีหน้าที่ประเมินความเสี่ยงไม่ให้รายงานการละเมิดกฎหมายหรือ “ความเสี่ยงร้ายแรง” —ที่นิยามว่าเป็นการเป็นอันตรายต่อ 50 ชีวิต หรือก่อให้เกิดความเสียหาย 1 พันล้านดอลลาร์—ต่ออัยการสูงสุด ผู้ควบคุมกฎ หรือผู้จัดการของพวกเขา พนักงานไม่จำเป็นต้องแน่ใจ 100% ว่ามีความเสี่ยงร้ายแรง แต่เพียงแค่มี “เหตุอันควร” ที่จะเชื่อ ก็จะได้รับการคุ้มครองภายใต้กฎหมายใหม่นี้

การคุ้มครองผู้เปิดเผยข้อมูลความผิดของแคลิฟอร์เนียมีขอบเขตจำกัด

การคุ้มครองใหม่นี้นับเป็น “ก้าวสำคัญไปข้างหน้า” Jacob Hilton อดีตนักวิจัยของ OpenAI และหนึ่งในผู้ลงนามในจดหมายเปิดผนึกกล่าว อย่างไรก็ตาม เขากล่าวว่าเขาต้องการเห็นการคุ้มครองนี้ถูกนำมาใช้ในระดับรัฐบาลกลาง โดยชี้ไปที่ “กฎหมายคุ้มครองผู้เปิดเผยข้อมูลความผิดด้าน AI” (AI Whistleblower Protection Act) ที่เสนอต่อสภาคองเกรสในเดือนพฤษภาคม โดยได้รับการสนับสนุนจากทั้งสองพรรค Hilton ตั้งข้อสังเกตว่าเกณฑ์สำหรับ “ความเสี่ยงร้ายแรง” หมายความว่าความเสียหายที่เล็กกว่าแต่ยังคงร้ายแรงจะไม่ได้รับการคุ้มครอง ผู้ลงนามอีกคนในจดหมายเปิดผนึก ซึ่งขอสงวนนาม ไม่ประสงค์ออกนาม กล่าวกับ TIME ว่า แม้การจัดการกับความเสี่ยงร้ายแรงจะเป็นสิ่งสำคัญ แต่ “อาจมีด้านความเสี่ยงอื่นๆ ที่เราต้องการให้มีการคุ้มครองอื่นๆ” 

การก้าวข้ามการเปิดเผยกิจกรรมที่ผิดกฎหมายเพียงอย่างเดียวนั้นเป็นข้อกำหนดที่สำคัญ Lawrence Lessig ศาสตราจารย์ด้านกฎหมายที่ Harvard ซึ่งให้คำแนะนำทางกฎหมายแบบไม่คิดค่าใช้จ่ายแก่ Kokotajlo และผู้ลงนามอื่นๆ ในจดหมายกล่าว แม้ว่า Lessig จะกังวลว่าความไม่แน่นอนเกี่ยวกับสิ่งที่จะได้รับการคุ้มครองอาจยับยั้งพนักงานไม่ให้ออกมาเปิดเผยข้อมูล เขากล่าวว่าเขาอยากให้มาตรฐานลดลงเป็น “โดยสุจริตใจ” (good faith) ซึ่งเน้นที่ความเชื่อที่แท้จริงของพนักงาน มากกว่าความแข็งแกร่งของหลักฐาน ตามที่ Lessig กล่าวไว้ นี่จะเป็น “มาตรฐานที่เรียบง่ายกว่ามากสำหรับนักเทคโนโลยีที่จะสามารถพึ่งพาได้” มากกว่าการบังคับให้พวกเขาทำหน้าที่เหมือนทนายความหรือนักวิเคราะห์ความเสี่ยง ภายใต้กฎหมายใหม่นี้ มาตรฐาน “โดยสุจริตใจ” ที่ต่ำกว่าจะสงวนไว้เฉพาะสำหรับช่องทางการรายงานภายในที่ไม่ระบุชื่อภายในบริษัท AI ขนาดใหญ่เท่านั้น

Lessig กล่าวว่าความเสี่ยงที่ผู้เปิดเผยข้อมูลความผิดในอดีตยอมแบกรับเน้นย้ำถึงความจำเป็นของการคุ้มครองดังกล่าว “เมื่อคุณมีคนวงในที่เต็มใจสละเงิน 2 ล้านดอลลาร์เพื่ออิสระในการพูด เราควรจะกระตือรือร้นที่จะทำความเข้าใจว่าพวกเขาต้องการจะพูดอะไร” เขากล่าว

บทความนี้ให้บริการโดยผู้ให้บริการเนื้อหาภายนอก SeaPRwire (https://www.seaprwire.com/) ไม่ได้ให้การรับประกันหรือแถลงการณ์ใดๆ ที่เกี่ยวข้องกับบทความนี้

หมวดหมู่: ข่าวสําคัญ ข่าวประจําวัน

SeaPRwire จัดส่งข่าวประชาสัมพันธ์สดให้กับบริษัทและสถาบัน โดยมียอดการเข้าถึงสื่อกว่า 6,500 แห่ง 86,000 บรรณาธิการและนักข่าว และเดสก์ท็อปอาชีพ 3.5 ล้านเครื่องทั่ว 90 ประเทศ SeaPRwire รองรับการเผยแพร่ข่าวประชาสัมพันธ์เป็นภาษาอังกฤษ เกาหลี ญี่ปุ่น อาหรับ จีนตัวย่อ จีนตัวเต็ม เวียดนาม ไทย อินโดนีเซีย มาเลเซีย เยอรมัน รัสเซีย ฝรั่งเศส สเปน โปรตุเกส และภาษาอื่นๆ